はじめに
ようこそレッスン4:知識表現と推論(KRR)へ。このモジュールでは、人工知能の根本的な課題、つまり世界を象徴的にどのようにモデル化するかを扱います。機械がデータを保存するだけでは不十分であり、それを推論する必要があります。AIシステムが単純なパターンマッチングを超えて、推論を実行するために情報を論理的にどのように表現するかを探求します。
セクション1:歴史的基盤
古典的な命題論理と一階述語論理から、従来のエキスパートシステムの、厳格でありながら強力な構造へと進みます。これらのシステムは、論理的推論が可能な最初の「思考する」機械を提供しました。
セクション2:現代の収束
最後に、現代AIの最先端に到達し、ナレッジグラフとニューロシンボリックAIを検討します。この新興分野は、論理の厳密な説明可能性とニューラルネットワークの適応学習能力を融合させることを目指しています。
コンテキストアラート
「ブラックボックス」として機能するニューラルネットワークとは異なり、KRRは、推論パスが明確で、検証可能で、解釈可能なホワイトボックスモデルに焦点を当てています。
記号論理構文の例
1
事実: 親( アリス, ボブ )
2
事実: 親( ボブ, チャーリー )
3
ルール: ( 親(x, y) 親(y, z) 祖父母(x, z))
4
推論: 祖父母( アリス, チャーリー )
ケーススタディ:医療診断システム
以下のシナリオを読んで、質問に答えてください。
MYCINのような初期のAIシステムは、KRRを使用して血液感染症を診断しました。統計に基づいて推測する最新のMLとは異なり、MYCINは医師から導き出された600以上のルールを使用しました。
Q1
1. なぜ説明可能性は、一般的な画像分類器と比較して、医療KRRシステムにおいて重要なのでしょうか?
解答:
医療では、医師は診断を信頼するために検証可能なパス(使用されたルールの連鎖)を必要とします。「ブラックボックス」の予測は、重要な決定には許容されません。KRRはこの明確な推論パスを提供します。
医療では、医師は診断を信頼するために検証可能なパス(使用されたルールの連鎖)を必要とします。「ブラックボックス」の予測は、重要な決定には許容されません。KRRはこの明確な推論パスを提供します。
Q2
2. システムは、「発熱が高い場合、感染症の可能性が高い」のようなルールをどのように処理しますか?
解答:
このルールは象徴的に表現されます(例: )。推論エンジンは、患者の記録に事実 is true in the patient's record; if so, it asserts が当てはまるかどうかを確認し、当てはまる場合は、新しい結論として
このルールは象徴的に表現されます(例:
Q3
3. これらのルールを手動でエンコードすることの限界(知識獲得のボトルネック)を特定してください。
解答:
主な限界は知識獲得のボトルネックです。人間の専門家がすべての知識を正式で明示的なルールとして明確にするための困難さと時間です。現実世界の知識はしばしば曖昧で、手動でのエンコードには広すぎます。
主な限界は知識獲得のボトルネックです。人間の専門家がすべての知識を正式で明示的なルールとして明確にするための困難さと時間です。現実世界の知識はしばしば曖昧で、手動でのエンコードには広すぎます。